2025/10/28

人工智慧與心理健康(三)提升心理健康與幸福感


在對「正向心理學」(Positive Psychology, PP)做了一系列回顧之後,這一篇,我們討論一下人工智慧(AI)在正向心理學領域的應用。

正向心理學在臨床上作為傳統心理治療的延伸,AI 可以扮演的角色不少,然而也跟前面文章所提到的多有重疊。舉例來說,透過「聊天機器人」來做情緒的支持和心理健康的衛教(例如 wysa);透過「情緒 AI」(Emotional AI)技術來提供量身定制的策略、互動練習和模擬,促進情緒調節;透過 AI 驅動的應用程式來引導使用者進行放鬆練習、深呼吸技巧或正念練習。

促進人際關係和社會支持

如果聚焦在「提升幸福感」上,那麼「促進人際關係和社會支持」或許是一個有別與一般心理健康應用的方向。

例如,使用 AI 促進網路支持團體和社群連結,幫助面臨相似挑戰的個體建立聯繫,從而交換經驗和策略(互助團體)。這呼應了 PERMA 模型中「正向人際關係」(Positive Relationships)的重要性。

另一個例子,是使用 AI 系統提供使用者自身情緒的洞察,幫助使用者能更深入地了解自己的情緒和觸發這些情緒的因素。這些「情緒智慧介面」能夠根據使用者的情緒線索調整回應,提供更具同理心和支持性的互動。

道德和隱私問題

如同其它心理健康的領域,AI 在提升幸福感上有潛力,但同時也存在重大的道德爭議。AI 在正向心理學領域的潛力主要體現在大規模個人化的情緒和行為調節干預措施上,這有助於緩解專業人員短缺的困境,也提高了心理健康服務的可及性(accessibility)。

為了提供「量身訂做」的個人化服務,供應商不得不追蹤使用者的身心狀況,而這些資料極具敏感性,除了隱私洩漏的風險之外,這樣的服務跟「監控」之間只存在非常模糊的界線。這種技術的應用必須在強大的道德框架下進行,以避免「精神病學監控經濟」的形成:即日常情緒、行為和認知,被精明的演算法或服務供應商所操控。

而有鑑於 AI 缺乏處理複雜和高風險案例的成熟度,以及潛在的倫理風險,應優先制定負責任的 AI 實踐指南(Responsible AI Guardrails):應召集多元化的利益相關者(包括臨床醫生、患者和政策制定者)進行紅隊測試(red-teaming),以系統性地識別和減輕 AI 系統在心理健康應用中的偏差和潛在危害,確保其安全且臨床有效。




沒有留言:

張貼留言